Le moteur open-source de l'écosystème OMNIA. Connectez vos modèles locaux ou cloud, et laissez Orbot interagir avec votre système en toute sécurité via le contrôle HITL (Telegram/Discord).
Découvrez les piliers qui font d'Orbot Core l'avenir de l'autonomie souveraine.
Basculer instantanément de OpenAI à Claude, Gemini ou à votre moteur Ollama local. Données souveraines.
Toutes les actions critiques sont interceptées. L'agent attend votre validation mobile sur WhatsApp, Telegram ou Discord.
Un cerveau persisté sous format Markdown (orbot_memory.md), lisible par un humain et prêt pour le RAG.
Docker-Ready. Déployez votre agent autonome ou intégrez-le dans l'écosystème OMNIA Hub en une commande.
L'agent principal peut créer des sous-agents autonomes spécialisés pour accomplir des workflows complexes.
Un planificateur interne permet à Orbot de déclencher des routines et d'agir sans attendre votre instruction.
L'agent peut voir des images et transcrire vos mémos vocaux grâce au support de modèles Vision et Whisper.
Intégration native du Model Context Protocol pour brancher instantanément n'importe quel outil ou base de données externe.
Contrôle direct de l'hôte Windows : souris, clavier et exécution d'applications.
Orbot peut coder, forger et installer ses propres outils en totale autonomie.
Orbot Core a été entièrement réécrit en Python pour offrir des performances d'orchestration backend maximales.
Orbot Core n'est pas une boîte noire. Il orchestre logiciellement, mais s'arrête net devant une opération système non validée.
Action Bloquée : Exécution Bash
Déployez Orbot Core en une seule ligne de commande. Pas de configuration complexe, nos scripts s'occupent de tout.
irm https://raw.githubusercontent.com/AlexKoncept/omnia-hub/main/Orbot_Public/orbot_core/setup.ps1 | iex
curl -sSL https://raw.githubusercontent.com/AlexKoncept/omnia-hub/main/Orbot_Public/orbot_core/setup.sh | bash